はじめに
こんにちは!LINEの6週間の就業型インターンシップで、ML室Solution3チームに所属させて頂いた王朔といいます。簡単に自己紹介をすると、東京大学大学院情報理工学系研究科の修士1年で、機械学習の理論を専門とする研究室に所属していて、個人的には機械学習の解釈性に関する研究をしています。
インターンでは私の研究分野との融合を考えて「MLモデルの解釈性の探究」を1つの大きなテーマとしました。
また今回お世話になったチームではユーザ属性(users' persona)をメインに扱っており、LINEの開発環境自体に触ることや、属性推定の精度を向上をさせることを目的として「family serviceデータを用いた属性推定の改善」というテーマについても取り組むことになりました。
この記事では、これら2つのテーマについて私が得た体験と学びを書いていこうと思います。それでは第一部として「MLモデル解釈性の調査・探究」についてどうぞ!!
MLモデル解釈性の調査・探究
背景
AIはblack box
一般的な話として、機械学習・深層学習モデル(以後MLモデルと呼ぶ)は基本的にブラックボック